接續昨天的文章,今天介紹一下Yolo v1的Loss Function,由於在訓練的時候我們當然希望模型的結果是越接近正確的結果越好,但是實際上不太可能,預測和現實會有誤差,稱之為殘差,然後訓練的目的就是將這個殘差壓到越低越好,因為越低代表越接近正確的結果,模型不斷訓練。計算殘差,在不斷調整將殘差降低,直到訓練結束。
所以來看一下Yolo v1的殘差計算公式:
最後再來介紹一下非極大值抑制(Non Maximum Suppression, NMS),
這個東西是為了解決當一些物體被2個或以上的網格中的物件框給選中時,到底該用哪個物件框,首先將所有物件框的置信度計算出來,並選擇置信度最高的物件框,拿他和其他的物件框計算IOU,如果重合程度到一定程度,便將該物件框移除。
以上便是Yolo v1的介紹,有說不清楚或編排的地方以後會再來修改:)。